Световни новини без цензура!
ИИ може да представлява заплаха от „ниво на изчезване“ за хората и САЩ трябва да се намесят, предупреждава докладът, поръчан от Държавния департамент
Снимка: cnn.com
CNN News | 2024-03-12 | 22:10:56

ИИ може да представлява заплаха от „ниво на изчезване“ за хората и САЩ трябва да се намесят, предупреждава докладът, поръчан от Държавния департамент

Нов доклад, поръчан от Държавния департамент на САЩ, рисува тревожна картина на „катастрофалните“ рискове за националната сигурност, породени от бързо развиващия се изкуствен интелект, предупреждавайки, че времето изтича за федералното правителство да предотврати бедствието.

Констатациите се основават на интервюта с повече от 200 души в продължение на повече от година – включително висши ръководители от водещи компании за изкуствен интелект, изследователи по киберсигурност, експерти по оръжия за масово унищожение и служители по националната сигурност в правителството.

Докладът, публикуван тази седмица от Gladstone AI, категорично заявява, че най-напредналите системи за изкуствен интелект биха могли в най-лошия случай „да представляват заплаха на ниво на изчезване за човешкия вид“.

Служител на Държавния департамент на САЩ потвърди пред CNN, че агенцията е поръчала доклада, тъй като непрекъснато оценява как ИИ е в съответствие с целта си да защитава интересите на САЩ у дома и в чужбина. Служителят обаче подчерта, че докладът не отразява възгледите на правителството на САЩ.

Предупреждението в доклада е още едно напомняне, че въпреки че потенциалът на ИИ продължава да завладява инвеститорите и обществеността, съществуват и реални опасности.

„ИИ вече е икономически трансформираща технология. Това може да ни позволи да лекуваме болести, да правим научни открития и да преодоляваме предизвикателства, които някога сме смятали за непреодолими“, каза Джеръми Харис, главен изпълнителен директор и съосновател на Gladstone AI, пред CNN във вторник.

„Но това също може да доведе до сериозни рискове, включително катастрофални рискове, които трябва да сме наясно“, каза Харис. „И все повече доказателства – включително емпирични изследвания и анализи, публикувани в най-добрите конференции за AI в света – предполагат, че над определен праг на способности, AI потенциално може да стане неконтролируем.“

Говорителят на Белия дом Робин Патерсън каза, че изпълнителната заповед на президента Джо Байдън относно ИИ е „най-значимото действие, което всяко правителство в света е предприело, за да се възползва от обещанието и да управлява рисковете от изкуствения интелект“.

„Президентът и вицепрезидентът ще продължат да работят с нашите международни партньори и ще настояват Конгреса да приеме двупартийно законодателство за управление на рисковете, свързани с тези нововъзникващи технологии“, каза Патерсън.

„Ясна и спешна нужда“ от намеса

Изследователите предупреждават за две основни опасности, свързани с ИИ.

Първо, Гладстоун AI каза, че най-напредналите AI системи могат да бъдат въоръжени, за да нанесат потенциално необратими щети. Второ, в доклада се казва, че има частни опасения в лабораториите за изкуствен интелект, че в даден момент могат да „загубят контрол“ върху самите системи, които разработват, с „потенциално опустошителни последици за глобалната сигурност“.

„Възходът на AI и AGI [изкуствен общ интелект] има потенциала да дестабилизира глобалната сигурност по начини, напомнящи въвеждането на ядрени оръжия“, се казва в доклада, добавяйки, че съществува риск от AI „надпревара във въоръжаването“, конфликт и „ Инциденти с фатален изход от мащаба на ОМУ.

Докладът на Gladstone AI призовава за драматични нови стъпки, насочени към справяне с тази заплаха, включително стартиране на нова агенция за изкуствен интелект, налагане на „спешни“ регулаторни предпазни мерки и ограничения върху това колко компютърна мощност може да се използва за обучение на модели на изкуствен интелект.

„Има ясна и спешна необходимост правителството на САЩ да се намеси“, пишат авторите в доклада.

Съображения за безопасност

Харис, изпълнителен директор на Gladstone AI, каза, че „безпрецедентното ниво на достъп“, което неговият екип е имал до длъжностни лица в публичния и частния сектор, е довело до стряскащите заключения. Gladstone AI каза, че е разговарял с технически и ръководни екипи от собственика на ChatGPT OpenAI, Google DeepMind, родителя на Facebook Meta и Anthropic.

„По пътя научихме някои отрезвяващи неща“, каза Харис във видео, публикувано на уебсайта на Gladstone AI, обявявайки доклада. „Зад кулисите ситуацията с безопасността и сигурността в напредналия AI изглежда доста неадекватна спрямо рисковете за националната сигурност, които AI може да въведе доста скоро.“

В доклада на Gladstone AI се казва, че конкурентният натиск тласка компаниите да ускорят развитието на AI „за сметка на безопасността и сигурността“, повишавайки перспективата най-напредналите AI системи да бъдат „откраднати“ и „въоръжени“ срещу Съединените щати.

Заключенията допълват нарастващия списък от предупреждения за екзистенциалните рискове, породени от ИИ – включително дори от някои от най-влиятелните фигури в индустрията.

Преди почти година Джефри Хинтън, известен като „кръстникът на изкуствения интелект“, напусна работата си в Google и разгласи технологията, в чието развитие е участвал. Хинтън каза, че има 10% шанс изкуственият интелект да доведе до изчезване на хората през следващите три десетилетия.

Хинтън и десетки други лидери в AI индустрията, академици и други подписаха изявление миналия юни, в което се казва, че „намаляването на риска от изчезване от AI трябва да бъде глобален приоритет“.

Бизнес лидерите са все по-загрижени за тези опасности – дори когато наливат милиарди долари в инвестиции в AI. Миналата година 42% от изпълнителните директори, анкетирани на срещата на върха на главните изпълнителни директори в Йейл миналата година, казаха, че AI има потенциала да унищожи човечеството след пет до десет години.

Човешки способности за учене

В своя доклад Gladstone AI отбеляза някои от видните личности, които предупредиха за екзистенциалните рискове, породени от AI, включително Илон Мъск, председателят на Федералната търговска комисия Лина Хан и бивш висш изпълнителен директор на OpenAI.

Според Gladstone AI някои служители в компании за изкуствен интелект споделят подобни опасения насаме.

„Един човек в добре известна AI лаборатория изрази мнение, че ако конкретен AI модел от следващо поколение някога бъде пуснат с отворен достъп, това би било „ужасно лошо“, се казва в доклада, „защото потенциалът на модела е убедителен способностите биха могли да „счупят демокрацията“, ако някога бъдат използвани в области като намеса в избори или манипулиране на гласоподаватели.“

Гладстоун каза, че е помолил експертите по изкуствен интелект в граничните лаборатории да споделят частно личните си оценки за шанса инцидент с изкуствен интелект да доведе до „глобални и необратими ефекти“ през 2024 г. Оценките варират между 4% и дори 20%, според доклад, който не отбелязва, че оценките са неофициални и вероятно са обект на значителни пристрастия.

Източник: cnn.com



Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!